home *** CD-ROM | disk | FTP | other *** search
/ SuperHack / SuperHack CD.bin / CODING / MISC / NUD-1107.ZIP / NUD-1107.TXT
Encoding:
Text File  |  1993-01-31  |  25.0 KB  |  694 lines

  1.  
  2. Neuron Digest   Thursday, 28 Jan 1993
  3.                 Volume 11 : Issue 7
  4.  
  5. Today's Topics:
  6.              CALL FOR PAPERS - ANN STANDARDS
  7.                Financial futures?
  8.              Quantum neural computer
  9.       integrating symbolic processing with neural networks
  10.                   Previous post
  11.         FREE MUME version 0.5 for MSDOS platform
  12.          IND Version 2.1 tree software available
  13.      Re: Inability of feed forward nets to learn polynomials
  14.           Neural Networks for System Modelling
  15.        Cross-Val: Summary of Lit Survey and Request for References
  16.  
  17.  
  18. Send submissions, questions, address maintenance, and requests for old
  19. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  20. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  21. requested by mail will eventually be sent, but may take a while.
  22.  
  23. ----------------------------------------------------------------------
  24.  
  25. Subject: CALL FOR PAPERS - ANN STANDARDS
  26. From:    John Fulcher <john@cs.uow.edu.au>
  27. Date:    Mon, 04 Jan 93 14:47:24 -0500
  28.  
  29. CALL FOR PAPERS - ANN STANDARDS
  30.  
  31. COMPUTER STANDARDS & INTERFACES
  32.  
  33. For some time now, there has been a need to consolidate and formalise the
  34. efforts of researchers in the Artificial Neural Network field. The
  35. publishers of this North-Holland journal have deemed it appropriate to
  36. devote a forthcoming special issue of Computer Standards & Interfaces to
  37. ANN standards, under the guest editorship of John Fulcher, University of
  38. Wollongong, Australia.
  39.  
  40. We already have the cooperation of the IEEE/NCC Standards Committee, but
  41. are also interested in submissions regarding less formal, de facto
  42. "standards". This could range from established, "standard" techniques in
  43. various application areas (vision, robotics, speech, VLSI etc.), or ANN
  44. techniques generally (such as the backpropagation algorithm & its
  45. [numerous] variants, say). Accordingly, survey or review articles would
  46. be particularly welcome.
  47.  
  48. If you are interested in submitting a paper for consideration, you will
  49. need to send three copies (in either hard copy or electronic form) by
  50. March 31st, 1993 to:
  51.  
  52. John Fulcher,
  53. Department of Computer Science,
  54. University of Wollongong,
  55. Northfields Avenue,
  56. Wollongong NSW 2522,
  57. Australia.
  58.  
  59. fax: +61 42 213262
  60. email: john@cs.uow.edu.au.oz
  61.  
  62.  
  63. ------------------------------
  64.  
  65. Subject: Financial futures?
  66. From:    "Mike Carrier" <mikecarrier@delphi.com>
  67. Date:    06 Jan 93 10:26:17 -0500
  68.  
  69.  
  70.  Neural Networks and Financial Prognostication
  71.  
  72.     Lately I've been perusing the back issues via the FTP cache,
  73. and I'd first like to thank Mjr. Peter G. Raeth for his compilation of a
  74. suggested reading list, as well as all of those who submitted titles to
  75. him.  This compilation was a key in my initiation to NN's and expert
  76. systems.
  77.  
  78.     I am interested in the possible applications of NN's and their
  79. uses in predicting future market activity.  I have reviewed Tiong Hwee
  80. Goh's paper, and the NN/GA premise shows promise.  Other than this, does
  81. anyone have other papers/publications that they'd suggest to me?  Thanks
  82. in advance, FTP instructions for them are appreciated as well.
  83.  
  84. Mike Carrier
  85. mikecarrier@delphi.com
  86.  
  87.  
  88. ------------------------------
  89.  
  90. Subject: Quantum neural computer
  91. From:    "Dr. S. Kak" <kak@max.ee.lsu.edu>
  92. Date:    Thu, 07 Jan 93 13:47:10 -0600
  93.  
  94.  
  95. Hitherto all computers have been designed based on classical laws.
  96. We consider the question of building a quantum neural computer and
  97. speculate on its computing power.  We argue that such a computer
  98. could have the potential to solve artificial intelligence problems.
  99.  
  100. History tells us that paradigms of science and technology draw on
  101. each other.  Thus Newton's conception of the universe was based on
  102. the mechanical engines of the day; thermodynamics followed the heat
  103. engines of the 19th century; and computers followed the development
  104. of telegraph and telephone.  From another point of view, modern
  105. computers are based on classical physics.  Since classical physics
  106. has been superseded by quantum mechanics in the microworld, one
  107. might ask the question if a new paradigm of computing based on
  108. quantum mechanics can be constructed.
  109.  
  110. Intelligence, and by implication consciousness, has been taken by
  111. many computer scientists to emerge from the complexity of the
  112. interconnections between the neurons.  But if it is taken to be a
  113. unity, as urged by Schrodinger and other physicists ,
  114. then it should be described by a quantum mechanical wave
  115. function.  No representation in terms of networking of classical
  116. objects, such as threshold neurons, can model a wave function.
  117. This is another reason that one seeks a new computing paradigm.
  118.  
  119. A brain-mind identity hypothesis,
  120.  with a mechanistic or electronic representation of the brain
  121.  processes, does not explain how self-awareness could arise.  At
  122. the level of ordinary perception there exists a duality and
  123.  complementarity between an autonomous (and reflexive ) brain and
  124. a mind with intentionality.  The notion of self seems to hinge on
  125. an indivisibility akin to that found in quantum mechanics.  This
  126. was argued most forcefully by Schrodinger, one of the creators of
  127. quantum mechanics.
  128.  
  129. A quantum neural computer will start out with a wavefunction that
  130. is a sum of several different problem functions.  After the evolution
  131. of the wavefunction the measurement operator will force the
  132. wavefunction to reduce to the correct eigenfunction with the
  133. corresponding measurement that represents the computation.
  134.  
  135. A discussion of these issues is contained in my TECHNICAL REPORT
  136. ECE/LSU 92-13, December 15, 1993 entitled
  137.  
  138. CAN WE BUILD A QUANTUM NEURAL COMPUTER?
  139.  
  140. If you would like to have an electronic copy (minus the math)
  141. do let me know. Hard-copies are also available.
  142.  
  143. - -Subhash Kak
  144. Professor of Electrical & Computer Engineering
  145. Louisiana State University
  146. Baton Rouge, LA 70803-5901, USA
  147.  
  148. Tel:(504) 388-5552; Fax: 504-388-5200
  149.  
  150.  
  151. ------------------------------
  152.  
  153. Subject: integrating symbolic processing with neural networks
  154. From:    Ron Sun <rsun@athos.cs.ua.edu>
  155. Date:    Thu, 07 Jan 93 17:29:02 -0600
  156.  
  157. I have collected a bibliography of papers on integrating symbolic
  158. processing with neural networks, and am looking for additional references.
  159. It's available in Neuroprose under the name Sun.bib.Z (in an unedited
  160. form); I'll also be happy to send it to you directly if you e-mail me.  The
  161. bibliography will be included in a book on this topic that I'm co-editing.
  162.  
  163. I'm looking for additional references to make the bibliography as
  164. comprehensive as possible.  So, I would like authors to send me (a possibly
  165. annotated) list of their publications on this topic (this is a chance to
  166. make your work better known.)  Also, anyone who has already compiled such a
  167. bib, please let me know; I would like to incorporate it.  Due credit will
  168. be given, of course.
  169.  
  170. Here is my address. E-mail response (rsun@cs.ua.edu) is strongly preferred.
  171.  
  172. ================================================================
  173. Ron Sun,  Ph.D  
  174. Assistant Professor 
  175. Department of Computer Science            phone: (205) 348-6363
  176. The University of Alabama                 fax:   (205) 348-8573
  177. Tuscaloosa, AL 35487                      rsun@athos.cs.ua.edu
  178. ================================================================
  179.  
  180. Thanks for your cooperation.
  181.  
  182.  
  183.  
  184.  
  185.  
  186. ------------------------------
  187.  
  188. Subject: Previous post
  189. From:    Ron Sun <rsun@athos.cs.ua.edu>
  190. Date:    Wed, 13 Jan 93 13:18:50 -0600
  191.  
  192. In my previous posting regarding references on symbolic processing
  193. and connectionist models, I mentioned a file FTPable from Neuroprose.
  194. The correct file name is sun.hlcbib.asc.Z (not sun.bib.Z).
  195. My apology.
  196.  
  197. - --Ron
  198.  
  199.  
  200.  
  201. ------------------------------
  202.  
  203. Subject: FREE MUME version 0.5 for MSDOS platform
  204. From:    Multi-Module Environment <mume@sedal.su.oz.au>
  205. Date:    Fri, 08 Jan 93 16:08:11 +1100
  206.  
  207. The Multi-Module Neural Computing Environment (MUME) version 0.5 for the
  208. MSDOS platform is now available FREE of charge via anonymous ftp on
  209.     brutus.ee.su.oz.au:/pub/MUME-0.5-DOS.zip
  210.  
  211. The full listing of the file is:
  212.     -rw-r-----  1 mume     mume      1391377 Jan  8 15:45 MUME-0.5-DOS.zip
  213.  
  214. Unzipping it should create a directory called MUME-DOS and it is about 4.6 MB.
  215.  
  216. Following is the README file.
  217.  
  218.  
  219. Have fun.
  220.  
  221. MUME-Request@sedal.su.OZ.AU
  222.  
  223. =----------------------------------------------------------------------------
  224.  
  225.         Multi-Module Neural Computing Environment
  226.                 (MUME)
  227.             Version 0.5 (FREE) for MSDOS 5.0
  228.  
  229. MUME is a simulation environment for multi-modules neural computing. It
  230. provides an object oriented facility for the simulation and training 
  231. of multiple nets with various architectures and learning algorithms.
  232.  
  233. MUME includes a library of network architectures including feedforward,
  234. simple recurrent, and continuously running recurrent neural networks.
  235. Each architecture is supported by a variety of learning algorithms.
  236.  
  237. MUME can be used for large scale neural network simulations as it provides
  238. support for learning in multi-net environments. It also provide pre and
  239. post-processing facilities.
  240.  
  241. The object oriented structure makes simple the addition of new
  242. network classes and new learning algorithms. New classes/algorithms can be
  243. simply added to the library or compiled into a program at run-time. The
  244. interface between classes is performed using Network Service Functions
  245. which can be easily created for a new class/algorithm.
  246.  
  247. The architectures and learning algorithms currently available are:
  248.  
  249.  
  250.     Class                Learning algorithms
  251.     ------------            -------------------
  252.  
  253.     MLP                backprop, weight perturbation,
  254.                     node perturbation, summed weight
  255.                     perturbation
  256.  
  257.     SRN                backprop through time, weight
  258.                     update driven node splitting,
  259.                     History bound nets 
  260.  
  261.     CRRN                Williams and Zipser
  262.  
  263.     Programmable
  264.     Limited precision nets        Weight perturbation, Combined
  265.                     Search Algorithm, Simulated Annealing
  266.         
  267.     
  268. Other general purpose classes include (viewed as nets):
  269.  
  270.     o    DC source
  271.     o    Time delays
  272.     o    Random source
  273.     o    FIFOs and LIFOs
  274.     o    Winner-take-all
  275.     o    X out of Y classifiers
  276.  
  277. The modules are provided in a library. Several "front-ends" or clients are
  278. also available.
  279.  
  280. MUME can be used to include non-neural computing modules (decision 
  281. trees, ...) in applications.
  282.  
  283. The software is the product of a number of staff and postgraduate students
  284. at the Machine Intelligence Group at Sydney University Electrical
  285. Engineering. It is currently being used in research, research and
  286. development and teaching, in ECG and ICEG classification, and speech and
  287. image recognition. As such, we are interested in institutions that
  288. can exploit the tool (especially in educational courses) and build up on it.
  289.  
  290. The software is written in 'C' and is aviable on the following platforms:
  291.     - Sun (SunOS)
  292.     - DEC (Ultrix)
  293.     - Fujitsu VP2200 (UXP/M)
  294.     - IBM RS6000 (AIX)
  295.     - Hewlett Packard (HP-UX)
  296.     - IBM PC compatibles (MSDOS 5.0) -- does not run under MS-Windows'
  297.         DOS sessions
  298.  
  299. THE MSDOS version of MUME is available as a public domain software. And can be
  300. ftp-ed from brutus.ee.su.oz.au:/pub/MUME-0.5-DOS.zip.
  301.  
  302. MUME for the other platforms is available to research institutions on
  303. media/doc/postage cost arrangements. Information on how to acquire it may be
  304. obtained by writing (or email) to:
  305.  
  306.     Marwan Jabri
  307.     SEDAL
  308.     Sydney University Electrical Engineering
  309.     NSW 2006 Australia
  310.     Tel: (+61-2)     692-2240
  311.     Fax:         660-1228
  312.     Email:        marwan@sedal.su.oz.au
  313.  
  314.  
  315. A MUME mailing list is currently available by sending an email to
  316.     MUME-Requests@sedal.su.OZ.AU
  317. Please put your subscription email address on the 'Subject:' line.
  318.  
  319. To send mail to everybody in the mailing list, send it to:
  320.      MUME@sedal.su.OZ.AU
  321.  
  322. All bugs reports should be sent to MUME-Bugs@sedal.su.OZ.AU and should include
  323. the following details:
  324.     1.  Date (eg. 12 Feb 1993).
  325.     2.  Name (eg. John Citizen).
  326.     3.  Company/Institution (eg. Sydney University Electrical Engineering).
  327.     4.  Contact Address (eg. what-is-mume@sedal.su.OZ.AU).
  328.     5.  Version of MUME (eg. MUME 0.5).
  329.     6.  Machine Name/Type (eg. Sun Sparc 2).
  330.     7.  Version of the Operating System (eg. SunOS 4.1.1).
  331.     8.  Brief Description of the problem(s).
  332.     9.  Error Messages (if any).
  333.     10. Related Files (Filename, Version and Relationship to problems).
  334.  
  335.  
  336. ------------------------------
  337.  
  338. Subject: IND Version 2.1 tree software available
  339. From:    Wray Buntine <wray@ptolemy.arc.nasa.gov>
  340. Date:    Sun, 10 Jan 93 21:59:14 -0800
  341.  
  342.  
  343. IND Version 2.1 - creation and manipulation of decision trees from data
  344. =----------------------------------------------------------------------
  345.  
  346. A common approach to supervised classification and prediction in
  347. artificial intelligence and statistical pattern recognition is the use of
  348. decision trees.  A tree is "grown" from data using a recursive
  349. partitioning algorithm to create a tree which (hopefully) has good
  350. prediction of classes on new data.  Standard algorithms are CART (by
  351. Breiman, Friedman, Olshen and Stone) and Id3 and its successor C4.5 (by
  352. Quinlan).  More recent techniques are Buntine's smoothing and option
  353. trees, Wallace and Patrick's MML method, and Oliver and Wallace's MML
  354. decision graphs which extend the tree representation to graphs.  IND
  355. reimplements and integrates these methods.  The newer methods produce
  356. more accurate class probability estimates that are important in
  357. applications like diagnosis.
  358.  
  359. IND is applicable to most data sets consisting of independent instances,
  360. each described by a fixed length vector of attribute values.  An
  361. attribute value may be a number, one of a set of attribute specific
  362. symbols, or omitted.  One of the attributes is delegated the "target" and
  363. IND grows trees to predict the target.  Prediction can then be done on
  364. new data or the decision tree printed out for inspection.
  365.  
  366. IND provides a range of features and styles with convenience for the
  367. casual user as well as fine-tuning for the advanced user or those
  368. interested in research.  Advanced features allow more extensive search,
  369. interactive control and display of tree growing, and Bayesian and MML
  370. algorithms for tree pruning and smoothing.  These often produce more
  371. accurate class probability estimates at the leaves.  IND also comes with
  372. a comprehensive experimental control suite.
  373.  
  374. IND consist of four basic kinds of routines; data manipulation routines,
  375. tree generation routines, tree testing routines, and tree display
  376. routines.  The data manipulation routines are used to partition a single
  377. large data set into smaller training and test sets.  The generation
  378. routines are used to build classifiers.  The test routines are used to
  379. evaluate classifiers and to classify data using a classifier.  And the
  380. display routines are used to display classifiers in various formats.
  381.  
  382. IND is written in K&R C, with controlling scripts in the "csh" shell of
  383. UNIX, and extensive UNIX man entries.  It is designed to be used on any
  384. UNIX system, although it has only been thoroughly tested on SUN
  385. platforms.  IND comes with a manual giving a guide to tree methods, and
  386. pointers to the literature, and several companion documents.
  387.  
  388.  
  389. Availability
  390. - ------------
  391.  
  392. IND Version 2.0 will shortly be available through NASA's COSMIC facility.
  393. IND Version 2.1 is available strictly as unsupported beta-test software.
  394. If you're interested in obtaining a beta-test copy, with no obligation on
  395. your part to provide feedback, contact
  396.  
  397.     Wray Buntine
  398.     NASA Ames Research Center  
  399.     Mail Stop 269-2           
  400.     Moffett Field, CA, 94035 
  401.     email:  wray@kronos.arc.nasa.gov
  402.  
  403.  
  404.  
  405. ------------------------------
  406.  
  407. Subject: Re: Inability of feed forward nets to learn polynomials
  408. From:    joerd@wsuaix.csc.wsu.edu (Wayne Joerding - Economics)
  409. Date:    Tue, 12 Jan 93 08:56:52 -0800
  410.  
  411. Using logistic network with polynomials      
  412.  
  413. Many months ago Pushpak Bhattacharyya of IIT Bombay posted an enquiry
  414. concerning the inability of logistic based feedforward networks to learn
  415. polynomials.  It seems that learning algorithms failed to converge in a
  416. number of simple cases.  Pushpak Bhattacharyya's email address no longer
  417. seems active so I resort to this digest to followup on this issue.
  418.  
  419. Recently, a colleague and I have developed a reason for the above noted
  420. failure, and examples of other similar failures for other functions.  We
  421. would like to prepare a paper on the idea but thought we should check to
  422. see if the issue is already been resolved.  So I have several questions:
  423.  
  424. Has anybody else encountered this problem?  Is the solution well known?
  425. Does there exists a published paper resolving the issue?  If so, where
  426. published?
  427.  
  428. Thanks for any information on the topic.
  429.  
  430. Wayne, joerd@wsuaix.csc.wsu.edu
  431.  
  432.  
  433. ------------------------------
  434.  
  435. Subject: Neural Networks for System Modelling
  436. From:    "Duane A. White" <KFRAMXX%TAIVM2.BITNET@TAIVM1.taiu.edu>
  437. Date:    Wed, 13 Jan 93 16:17:28 -0600
  438.  
  439. Can anyone suggest some good references for using neural networks for system
  440. modelling?
  441.  
  442. I am investigating ways of generating computer models of real world systems
  443. based on input/output records.  I would like to compare classical approaches
  444. with neural networks and fuzzy logic.
  445.  
  446. Any help would be greatly appreciated.
  447.  
  448.  
  449. ------------------------------
  450.  
  451. Subject: Cross-Val: Summary of Lit Survey and Request for References
  452. From:    Mark Plutowksi <pluto@cs.UCSD.EDU>
  453. Date:    Sun, 17 Jan 93 15:43:03 -0800
  454.  
  455.  
  456. Hello,
  457.  
  458. This is a follow-on to recent postings on using cross-validation to
  459. assess neural network models.  It is a request for further references,
  460. after an exhausting literature survey of my own which failed to find the
  461. results I seek.  A summary of my findings follows the request, followed
  462. by an informative response from Grace Wahba, and finally, a list of the
  463. references I looked at.
  464.  
  465. Thanks for any leads or tips,
  466.  
  467. =================
  468. == Mark Plutowski   pluto@cs.ucsd.edu
  469. Computer Science and Engineering 0114
  470. University of California, San Diego
  471. La Jolla,  California, USA. 
  472.  
  473.  
  474.  
  475.  
  476.             THE REQUEST:
  477.             ------------
  478. Do you know of convergence/consistency results for justifying
  479. cross-validatory model assessment for nonlinear compositions of basis
  480. functions, such as the usual sigmoided feedforward network?
  481.  
  482.  
  483.           SUMMARY OF MY LIT SURVEY:
  484.           -------------------------
  485. While the use of cross-validation to assess nonlinear neural network
  486. models CAN be justified to a certain degree, (e.g., [Stone 76,77]) the
  487. really nice theoretical results exist for other estimators, e.g., kernel
  488. density, histograms, linear models, and splines (see references below.)
  489.  
  490. These results are not directly applicable to neural nets.  They all
  491. exploit properties of the particular estimators which are not shared by
  492. neural networks, in general.  In short, the proofs for linear models
  493. exploit linear reductions, and the other (nonlinear) estimators for which
  494. optimality results have been published have the property that deleting a
  495. single example has negligible effect on the estimate outside a bounded
  496. region surrounding the example (e.g., kernel density estimators and
  497. splines.)  In comparison, a single example can affect every weight of a
  498. neural network - deleting it can have global effect on the estimate.
  499.  
  500.  
  501.            GRACE WAHBA SAYS:
  502.            ------------------
  503.  
  504. Thanks to Grace Wahba for her informative response to my request to her
  505. for information after I was unable to get hold of a copy of her relevant
  506. book: 
  507. ============================================================
  508.  
  509. Date: Wed, 13 Jan 93 22:32:29 -0600
  510. From: wahba@stat.wisc.edu (Grace Wahba)
  511. Message-Id: <9301140432.AA22884@hera.stat.wisc.edu>
  512. Received: by hera.stat.wisc.edu; Wed, 13 Jan 93 22:32:29 -0600
  513. To: pluto@cs.UCSD.EDU
  514. Subject: Re:  choose your own randomized regularizer
  515.  
  516. Very interesting request.. !!
  517. I'm convinced (as you seem to be) that some interesting 
  518. results are to be obtained using CV or  GCV in the 
  519. context of neural nets. In my book are brief discussions 
  520. of how GCV can be used in certain nonlinear inverse 
  521. problems (Sect 8.3), and when one is doing penalized 
  522. likelihood with non-Gaussian data (Sect 9.2). 
  523. (No theory is given, however). 
  524. Finbarr O'Sullivan (finbarr@stat.washington.edu) 
  525. has further results on problems like those in Sect 8.3. 
  526. However, I have not seen any theoretical results in the 
  527. context of sigmoidal feedforward networks (but that 
  528. sure would be interesting!!). However, if you make 
  529. a local quadratic approximation to an optimization 
  530. problem to get a local linear approximation to the 
  531. influence operator (which plays the role of A(\lambda)), 
  532. then you have to decide where you are going to take 
  533. your derivatives. In my book on page 113 (equation (9.2.19)
  534. I make a suggestion as to where to 
  535. take the derivatives , but I later 
  536. got convinced that that was not the best way 
  537. to do it.  Chong Gu,`Cross-Validating Non-Gaussian Data', 
  538. J. Computational and Graphical Statistics 1, 169-179, June, 1992 
  539. has a discussion of what he (and I) believe is a better way, 
  540. in that context. That context doesn't look at all like
  541. neural nets, I only mention this in case you 
  542. get into some proofs in the neural network context - 
  543. in that event I think you may have to worry about
  544. where you differentiate and Gu's arguments may be valid 
  545. more generally..
  546.  
  547. As far as missing any theoretical result due to not having my 
  548. book, the only theoretical cross validation result discussed 
  549. in any detail is that in Craven and Wahba(1979) which
  550. has been superceded by the work of Li, Utreras and Andrews.
  551.  
  552. As far as circulating your request to the net do go right 
  553. ahead- I will be very interested in any answers you get!!
  554.  
  555.  
  556.  
  557. \bibitem[Wahba 1990]
  558. Wahba,Grace. 1990. 
  559. "Spline Models for Observational Data" 
  560. v. 59 in the CBMS-NSF Regional Conference
  561. Series in Applied Mathematics, 
  562. SIAM, Philadelphia, PA, March 1990. 
  563. Softcover, 169 pages, bibliography, author index.
  564. ISBN 0-89871-244-0
  565.  
  566. ORDER INFO FOR WAHBA 1990:
  567. ==========================
  568.  
  569. List Price $24.75, SIAM or CBMS* Member Price $19.80
  570. (Domestic 4th class postage free, UPS or Air extra)
  571.  
  572. May be ordered from SIAM by mail, electronic mail, or phone:
  573.  
  574. SIAM
  575. P. O. Box 7260
  576. Philadelphia, PA 19101-7260
  577. USA
  578.  
  579. service@siam.org
  580.  
  581. Toll-Free 1-800-447-7426 (8:30-4:45 Eastern Standard Time, 
  582.    the US only.
  583. Regular phone:  (215)382-9800
  584. FAX (215)386-7999
  585.  
  586. May be ordered on American Express, Visa or Mastercard,
  587. or paid by check or money order in US dollars, 
  588. or may be billed (extra charge).
  589.  
  590. CBMS member organizations include AMATC, AMS, ASA, ASL, ASSM, 
  591. IMS, MAA, NAM, NCSM, ORSA, SOA and TIMS.
  592.  
  593. ============================================================
  594.  
  595.  
  596.  
  597. REFERENCES:
  598. ===========
  599.  
  600. \bibitem[Li 86]
  601. Li, Ker-Chau. 1986.
  602. ``Asymptotic optimality of $C_{L}$ and generalized
  603. cross-validation in ridge regression with
  604. application to spline smoothing.''
  605. {\em The Annals of Statistics}.
  606. {\bf 14}, 3, 1101-1112.
  607.  
  608. \bibitem[Li 87]
  609. Li, Ker-Chau. 1987.
  610. ``Asymptotic optimality for $C_{p}$, $C_{L}$,
  611. cross-validation, and generalized cross-validation:
  612. discrete index set.''
  613. {\em The Annals of Statistics}.
  614. {\bf 15}, 3, 958-975.
  615.  
  616. \bibitem[Utreras 87]
  617. Utreras, Florencio I.  1987.
  618. ``On generalized cross-validation for
  619. multivariate smoothing spline functions.''
  620. {\em SIAM J. Sci. Stat. Comput.}
  621. {\bf 8}, 4, July 1987.
  622.  
  623. \bibitem[Andrews 91]
  624. Andrews, Donald W.K. 1991.
  625. ``Asymptotic optimality of generalized
  626. $C_{L}$, cross-validation, and generalized
  627. cross-validation in regression with heteroskedastic
  628. errors.''
  629. {\em Journal of Econometrics}. {\bf 47} (1991) 359-377.
  630. North-Holland.
  631.  
  632. \bibitem[Bowman 80]
  633. Bowman, Adrian W.  1980.
  634. ``A note on consistency of the kernel method for
  635. the analysis of categorical data.''
  636. {\em Biometrika} (1980), {\bf 67}, 3, pp. 682-4.
  637.  
  638. \bibitem[Hall 83]
  639. Hall, Peter.  1983.
  640. ``Large sample optimality of least squares cross-validation
  641. in density estimation.''
  642. {\em The Annals of Statistics}.
  643. {\bf 11}, 4, 1156-1174.
  644.  
  645.  
  646. Stone, Charles J. 1984
  647. ``An asymptotically optimal window selection rule
  648. for kernel density estimates.''
  649. {\em The Annals of Statistics}.
  650. {\bf 12}, 4, 1285-1297.
  651.  
  652. \bibitem[Stone 59]
  653. Stone, M. 1959.
  654. ``Application of a measure of information
  655. to the design and comparison of regression experiments.''
  656. {\em Annals Math. Stat.} {\bf 30} 55-69
  657.  
  658. \bibitem[Marron 87]
  659. Marron, M. 1987.
  660. ``A comparison of cross-validation techniques in density estimation.''
  661. {\em The Annals of Statistics}.
  662. {\bf 15}, 1, 152-162.
  663.  
  664. \bibitem[Bowman etal 84]
  665. Bowman, Adrian W., Peter Hall, D.M. Titterington.  1984.
  666. ``Cross-validation in nonparametric estimation of
  667. probabilities and probability densities.''
  668. {\em Biometrika} (1984), {\bf 71}, 2, pp. 341-51.
  669.  
  670. \bibitem[Bowman 84]
  671. Bowman, Adrian W. 1984.
  672. ``An alternative method of cross-validation for the
  673. smoothing of density estimates.''
  674. {\em Biometrika} (1984), {\bf 71}, 2, pp. 353-60.
  675.  
  676. \bibitem[Stone 77]
  677. Stone, M. 1977.
  678. ``An asymptotic equivalence of choice of model by
  679. cross-validation and Akaike's criterion.''
  680. {\em J. Roy. Stat. Soc. Ser B}, {\bf 39}, 1, 44-47.
  681.  
  682. \bibitem[Stone 76]
  683. Stone, M. 1976.
  684. "Asymptotics for and against cross-validation"
  685. ??
  686.  
  687.  
  688.  
  689. ------------------------------
  690.  
  691. End of Neuron Digest [Volume 11 Issue 7]
  692. ****************************************
  693.  
  694.